Granger因果关系(GC)检验是一种著名的统计假设检验,用于研究一个时期的过去是否影响了另一个时间的未来。它有助于回答一个问题序列是否有助于预测。 Granger因果关系检测的标准传统方法通常假设线性动力学,但是这种简化在许多现实世界应用中不存在,例如,神经科学或基因组学本质上是非线性的。在这种情况下,施加线性模型,例如向量自回旋(VAR)模型可能会导致对真正的Granger因果相互作用的不一致估计。机器学习(ML)可以学习数据集中的隐藏模式(DL)在学习复杂系统的非线性动力学方面表现出巨大的希望。 Tank等人的最新工作建议通过使用神经网络结合对可学习的权重的稀疏性惩罚来克服VAR模型中线性简化的问题。在这项工作中,我们基于Tank等人引入的想法。我们提出了几类新的模型,这些模型可以处理潜在的非线性。首先,我们介绍了学识渊博的内核var(lekvar)模型 - var模型的扩展,这些模型也学习了通过神经网络参数的内核。其次,我们表明可以通过脱钩的惩罚直接将滞后和单个时间序列的重要性分解。这种去耦提供了更好的缩放,并使我们可以将滞后选择嵌入RNN中。最后,我们提出了一种支持迷你批次的新培训算法,并且它与常用的自适应优化器(例如Adam)兼容。癫痫患者的电脑电图(EEG)数据研究了在19个EEG通道之前,期间和之后的GC演变。
translated by 谷歌翻译